ÉDITORIAL

L’apocalypse artificielle

Quand IBM a battu en 1997 le champion d’échec Garry Kasparov, l’équipe de la machine a été huée.

L’intelligence artificielle ne suscite pas toujours la colère, mais elle alimente les craintes, et pas seulement celles des mauvais scénaristes. Même le célèbre astrophysicien Stephen Hawking a rejoint le camp des pessimistes plus tôt en décembre.

En entrevue à la BBC, il a prédit que les robots pourraient « sonner la fin de la race humaine ». Leur intelligence dépassera inévitablement celle des humains. Une fois cette étape franchie, ils pourront s’autoprogrammer et échapper à notre contrôle.

Certes, l’intelligence ne suffit pas pour prédire l’avenir. À la fin du XIXe siècle, Lord Kelvin, grand physicien, assurait que des machines « plus lourdes que l’air » ne voleraient jamais…

Le terme « robot » reste vague. Il peut désigner un drone, un exosquelette ou un toaster intelligent.

La menace paraît ésotérique. Pour en débattre, il faut d’abord réussir à être pris au sérieux. Ceux qui en parlent ne sont pourtant pas tous des candidats à l’asile. Le fondateur de SpaceX et Tesla Motors, Elon Musk, croit lui aussi que les robots posent une menace « existentielle ».

Ils s’appuient sur la progression exponentielle de la technologie. Par exemple, l’ordinateur Deep Blue émerveillait dans les années 90. Il est aujourd’hui 150 fois moins puissant qu’une banale console Playstation 4.

Selon la « loi » de Moore, la puissance des microprocesseurs double à chaque deux ans ou moins. L’intelligence artificielle finira ainsi par dépasser celle des mortels.

Mais ce qui s’observe aujourd’hui n’est pas condamné à se reproduire. Cette croissance exponentielle pourrait ralentir. La taille des microprocesseurs pose des limites physiques. La courbe technologique ressemblerait ainsi plutôt à celle de la croissance démographique : un grand boom qui finit par ralentir.

Ce sont de grandes questions, pour de grands cerveaux. Mais elles risquent de distraire de deux autres enjeux moins passionnants, mais plus pressants.

Le premier, c’est le besoin d’un nouveau cadre juridique pour les technologies actuelles ou en développement. Par exemple, qui est responsable si une voiture sans conducteur de Google a un accident ? Le groupe RoboLaw a déposé un rapport sur ces questions cet automne au Parlement européen. Imposer un corset légal étoufferait l’innovation, prévenait le groupe. Pour reprendre les termes du nouvel essai du sociologue français Gérald Bronner, il faut éviter le « précautionnisme » – soit le principe de précaution en dérive.

Le second défi, encore plus concret, concerne le marché du travail. Les robots créent de la richesse et améliorent la qualité de vie. Mais ils le font parfois en creusant les inégalités.

Selon une étude de deux économistes de l’Université d’Oxford, près de la moitié des types d’emplois seraient menacés par les robots. Après l’utopie de la société des loisirs, encore attendue impatiemment, on craint maintenant le cauchemar d’une économie sans travailleurs. Un exemple : Instagram a été vendue pour un milliard, alors qu’elle ne comptait que 13 employés. Mais ces prévisions sont très hypothétiques. Ces économistes, comme les futurologues, ne prévoient pas les technologies encore inconnues qui pourraient aussi créer des emplois…

Ces problèmes pratiques méritent néanmoins une réflexion sérieuse dès aujourd’hui. Quant à l’apocalypse, il restera la nuit pour y rêver.

Ce texte provenant de La Presse+ est une copie en format web. Consultez-le gratuitement en version interactive dans l’application La Presse+.